• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "데이터 마이닝"에 대한 통합 검색 내용이 9,268개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
씨이랩, AI 엑스포에서 비전 AI 특화 제품 선보여
AI 영상 분석 전문기업인 씨이랩은 5월 1일~3일 서울 코엑스에서 열리는 ‘2024 국제인공지능대전(AI EXPO KOREA 2024)’을 통해 영상분야에 특화된 AI 제품을 선보였다고 전했다. 씨이랩은 이번 전시회에서 ▲AI 영상 분석 서비스 ‘비디고(VidiGo)’ ▲합성 데이터 생성 솔루션 ‘엑스젠(X-GEN)’ ▲쿠버네티스 기반 AI 플랫폼 ‘아스트라고(astrago)’ 등 자사의 비전 AI 기술이 적용된 주요 제품을 출품했다. 특히 씨이랩은 클라우드 기반 AI 영상분석 서비스 비디고의 신규 버전인 ‘비디고 서치엔진(VidiGo Search Engine)’을 공개했다. 비디고 서치엔진은 영상을 시청하지 않고도 검색을 통해 특정 객체나 장면을 AI가 빠르게 찾아낸다. 영상을 요약하거나 숏폼을 제작하는 ‘비디고 하이라이트(VidiGo Highlight)’의 후속 제품이다. 씨이랩의 최원준 리더는 “비디고 하이라이트는 누구나 쉽게 AI 영상 분석을 진행할 수 있도록 카카오톡 채널을 통해 출시한 반면, 비디고 서치엔진은 대규모의 영상을 보유한 기업을 타기팅하고 있다. 이번 행사에서 비디고의 주요 타깃인 미디어 산업 분야의 참관객들에게 높은 관심을 받았다”고 말했다.     한편, 씨이랩은 AI 엑스포의 부대행사로 ‘비전 AI의 현재와 미래’라는 주제의 세미나를 진행했다. 세미나에서 씨이랩의 채정환 부사장은 “현재의 AI 시장은 초거대 언어 모델(LLM) 중심으로 발전해왔고, 머지않아 초거대 비전 모델(LVM : Large Vision Model) 중심으로 확대될 것으로 전망한다”고 밝히며, 엔비디아 옴니버스 플랫폼과의 협력을 통한 LVM 구성 전략을 제시했다.
작성일 : 2024-05-03
IBM, 국내서도 AWS 마켓플레이스 소프트웨어 포트폴리오 확대
IBM은 한국을 포함한 전 세계 92개국에서 아마존웹서비스(AWS) 마켓플레이스를 통해 공급하는 자사 소프트웨어 포트폴리오를 확대한다고 발표했다. AWS 마켓플레이스는 AWS에서 가동되는 소프트웨어를 쉽게 찾고, 테스트, 구매, 배포할 수 있도록 독립 소프트웨어 벤더(ISV)의 수천 개 소프트웨어 목록을 제공하는 디지털 카탈로그다. 이미 IBM 소프트웨어가 제공되는 덴마크, 프랑스, 독일, 영국, 미국을 시작으로 서비스 국가가 확대되면서, 고객은 보다 간단한 구매 절차를 통해 AWS 약정 비용을 IBM 소프트웨어 구매에 사용해 효율을 높일 수 있다. 글로벌 시장조사기업 카날리스(Canalys)의 연구에 따르면 클라우드 마켓플레이스들은 지난 5년간 연평균 84% 성장률을 기록하며 450억 달러 규모로 성장할 것으로 예상돼 서비스형 소프트웨어(SaaS) 시장에서 가장 빠르게 발전하는 시장으로 부상했다. 마켓플레이스는 구매 주기 단축, 결제 통합, 소프트웨어 배포의 신속한 확장에 도움이 된다. 이번 발표를 통해 고객은 AWS 마켓플레이스에서 44개의 제품 라인업과 29개의 SaaS 제품 등 IBM의 인공지능(AI) 및 데이터 기술을 더 많이 이용할 수 있게 된다. 여기에는 기업이 AI 프로젝트를 구축, 확장 및 관리할 수 있도록 지원하는 왓슨x의 구성 요소가 포함되어 있다. 개방형 데이터 레이크하우스 구조에 구축된 맞춤형 데이터 저장소인 왓슨x.데이터와 AI 개발자를 위한 차세대 기업용 플랫폼인 왓슨x.ai를 이용할 수 있으며, IBM의 AI 어시스턴트인 왓슨x.어시스턴트와 왓슨x. 오케스트레이트도 이용할 수 있다. 왓슨x.거버넌스는 곧 출시될 예정이다. 다른 소프트웨어로는 IBM의 대표 데이터베이스인 데이터용 Db2 클라우드 팩과 앱티오(Apptio), 터보노믹(Turbonomic), 인스타나(Instana)를 포함한 자동화 소프트웨어 포트폴리오, IBM 보안 및 지속 가능성 소프트웨어 포트폴리오가 있다. 모두 AWS 기반의 레드햇 오픈시프트 서비스를 기반으로 구축되었다. 고객은 클라우드 중심 소프트웨어(cloud-native)를 통해 AWS에 소프트웨어를 배포할 수 있으며, SaaS 및 구독을 포함한 유연한 라이선싱을 통해 고객이 원하는 방식으로 쉽게 구매할 수 있다. 또한, IBM은 AWS 마켓플레이스에서 AWS 전용으로 설계된 15개의 새로운 IBM 컨설팅 전문 서비스 및 자산을 출시한다. 고객의 요구와 수요에 맞춰 데이터 및 애플리케이션 현대화, 보안 서비스, 맞춤형 산업별 솔루션에 중점을 두고 있으며, 일부 서비스에는 생성형 AI 기능이 포함된다. 또한 IBM 컨설팅은 2만 4000개의 AWS 인증과 최신 AWS 기술 전문가로 구성된 전담 팀을 통해 업계 모범 사례에 기반한 맞춤형 추천으로 고객을 지원할 예정이다. AWS의 매트 얀치신(Matt Yanchyshyn) AWS 마켓플레이스 및 파트너 서비스 총괄 매니저는 “IBM의 글로벌 확장은 양사의 전 세계 고객들에게 혁신의 기회를 열어줄 것”이라면서, “이제 고객들은 AWS 마켓플레이스의 속도와 간소화된 절차를 활용해 IBM의 최첨단 솔루션에 보다 쉽게 접근함으로써 디지털 혁신을 가속화하고 대규모 혁신을 추진할 수 있다. AWS와 IBM의 이번 협력 확대는 오늘날의 급변하는 환경에서 고객이 성공하는 데 필요한 도구와 리소스를 제공하려는 양사 공동의 노력이 반영된 것”이라고 말했다. IBM의 닉 오토(Nick Otto) 글로벌 전략적 파트너십 총괄은 “AWS 마켓플레이스에서 IBM 소프트웨어 포트폴리오의 가용성을 확대해 전 세계 기업들이 비즈니스 발전에 도움이 되는 다양한 IBM AI 및 하이브리드 클라우드 제품을 보다 간소화된 방식으로 활용할 수 있게 될 것”이라며, “AWS와의 협력은 고객의 요구를 충족하기 위해 다른 기업과 협력하여 고객이 IBM과 최대한 쉽게 비즈니스를 진행하고 혁신을 가속화하는 방법을 보여주는 대표적인 예”라고 말했다.
작성일 : 2024-05-03
아비바, 산업 인텔리전스 플랫폼 ‘커넥트’ 출시
아비바가 산업 인텔리전스 플랫폼인 ‘커넥트(CONNECT)’를 공개했다. 기존에 ‘아비바 커넥트’에서 ‘커넥트’로 변경된 이 플랫폼은 슈나이더 일렉트릭, RIB, ETAP 및 광범위한 파트너 공급업체의 애플리케이션의 연동을 지원하여 고객이 운영하고 있는 산업 생태계 전반의 인사이트를 통합하고, 지능형 디지털 트윈을 구축할 수 있도록 돕는다. 이를 통해 고객은 각 분야의 의사결정권자가 신뢰할 수 있고 실행 가능한 인사이트를 기반으로 성과를 높이고 효율성을 최적화하는 동시에 지속가능성을 극대화하여 ROI를 높일 수 있다. 새롭게 출시된 커넥트는 전체 산업 라이프사이클을 실시간으로 아우르는 개방적이고 중립적인 디지털 플랫폼으로, 기본 데이터 서비스, 시각화 서비스, 모델링 및 분석 기능, 애플리케이션 개발 서비스와 더불어 서비스 및 사용 관리 기능을 제공한다. 데이터, 디지털 트윈, 산업 인공지능, 심층적인 도메인 전문 지식을 단일 환경 내에 통합하며, 마이크로소프트 애저(Microsoft Azure) 클라우드 기반으로 고객이 역량을 손쉽게 확장하고 향상된의 지속가능성을 경험할 수 있도록 지원한다. 커넥트는 원격 자산, 아비바의 애플리케이션, 타사 데이터 소스를 하나의 안전한 단일 플랫폼으로 결합하여 산업 기업이 클라우드에 대한 기술 투자를 최대한 활용할 수 있도록 지원함으로써 고유한 산업 생태계를 구축할 수 있도록 한다. 아비바에 따르면 현재 전 세계에서 수만 명의 월간 액티브 유저가 커넥트를 사용하고 있다. 커넥트에서 지원되는 주요 제품으로는 아비바 파이(AVEVA PI) 시스템, AVEVA Operations Control(운영 제어), AVEVA Unified Engineering(통합 엔지니어링), AVEVA Advanced Analytics(고급 분석), AVEVA Asset Information Managament(자산 정보 관리), RIB CostX 등이 있다.     한편, 아비바는 새로운 산업 애플리케이션 시장의 기반을 형성하기 위해 커넥트 중심의 다양한 파트너십을 확대하고 있다고 전했다. 예를 들어, 아비바와 마이크로소프트는 아비바의 산업 인텔리전스 플랫폼인 커넥트와 마이크로소프트의 제조업 클라우드(Microsoft Cloud for Manufacturing)를 사용하여 생산 실행 데이터와 공급망 생산 계획 데이터를 마이크로소프트 패브릭(Microsoft Fabric)에서 통합하고 컨텍스트화한다. 아비바의 캐스퍼 허즈버그(Caspar Herzberg) CEO는 “연결된 산업 경제 전략은 생태계 전반에서 글로벌 협업의 이점을 실현한다. 업계를 선도하는 산업 인텔리전스 플랫폼인 커넥트를 통해 산업 조직에서는 가치 사슬에 대한 총체적인 이해를 바탕으로 모든 단계에서 실시간 혁신을 촉진할 수 있다. 분석과 AI로 강화된 고유의 강력한 데이터 에코시스템은 마찰이 발생하지 않는 단일 환경에서 탁월한 효율성을 제공하여, 더 스마트하게 엔지니어링하고, 더 효율적으로 운영하며, 수익성을 높일 수 있도록 지원한다”고 말했다. 또한 “커넥트는 산업 디지털 트랜스포메이션의 다음 물결(Industrial DX 2.0)을 가속한다. 클라우드에서 서비스되는 AI 기반 플랫폼이 산업 정보를 공유하고 통합하여 기업, 파트너 및 고객의 효율성, 생산성 및 지속 가능성을 향상시킨다. 워크플로 간소화부터 실시간 모니터링 및 제어, 원격 협업 개선, 산업 자산의 엔드 투 엔드 수명 주기 성능 극대화에 이르기까지 업계의 디지털 트랜스포메이션 요구 사항을 해결한다”고 덧붙였다.
작성일 : 2024-05-03
PyMAPDL의 기초부터 활용까지
앤시스 워크벤치를 활용한 해석 성공사례   파이앤시스(PyAnsys)는 파이썬(Python)을 활용하여 앤시스(Ansys) 제품을 사용할 수 있는 라이브러리를 뜻한다. 파이앤시스는 구조해석과 관련한 PyMAPDL, PyMechanical과 전처리 및 후처리에 대한 PyDPF가 있다. 이와 같은 라이브러리를 이용하면 파이썬 내에 있는 패키지와 함께 다양한 작업이 가능해진다. 이번 호에서는 파이앤시스 중에서도 PyMAPDL에 대한 사용 방법과 활용 예시를 소개하고자 한다.   ■ 노은솔 태성에스엔이 구조 3팀 매니저로 구조해석 및 자동화 프로그램에 대한 기술 지원을 담당하고 있다. 이메일 | esnoh@tsne.co.kr 홈페이지 | www.tsne.co.kr   앤시스에서 구조, 열, 음향 등 다양한 해석에 사용되는 유한요소 솔버 중 하나인 Mechanical APDL은 명령어를 기반으로 구동된다. 복잡한 연산이나 매개변수 설정 및 자동화 기능이 가능하기 때문에 여전히 많이 사용되고 있다. 하지만 앤시스 워크벤치(Ansys Workbench)의 제한적인 기능을 활용할 경우, 추가적으로 APDL 명령어를 사용해야 한다. 말하자면 APDL 명령어로 여러 기능을 구현할 수 있지만, 넓은 범위에서 적용하기에는 한계가 있는 것이다. 예로 머신러닝이나 딥러닝과 관련한 라이브러리인 텐서플로(TensorFlow)나 케라스(Keras) 등은 APDL 명령어 내에서는 사용할 수 없으며, 파이썬과 APDL 연동에도 한계가 있다.  이 때 PyMAPDL 라이브러리를 사용하면 파이썬 내에서 APDL을 사용하기 때문에 활용도가 넓어진다. 이번 호에서는 PyMAPDL의 사용 방법과 활용 예시를 다뤄보고자 한다.    PyMAPDL 사용 방법 PyMAPDL은 파이썬에서 사용될 때 gRPC(Google Remote Procedure Call)를 기반으로 파이썬 명령어를 APDL 명령어로 변환하여 MAPDL 인스턴스(Instance)에 전송하고, 결과를 파이썬으로 다시 반환한다. 이러한 작업 과정 때문에 파이썬과 MAPDL 간 원활한 데이터 통신이 가능해지며, 다수의 MAPDL 인스턴스를 생성하여 다른 명령으로 동시 작업 또한 가능하다.   그림 1. PyMAPDL gRPC   먼저 PyMAPDL을 사용하기 위해서 앤시스 메커니컬(Ansys Mechanical)이 설치되어 있어야 하며, 관련 라이선스를 보유하고 있어야 한다. 현재 파이앤시스 홈페이지에 따르면 파이썬 3.8 이상 버전을 지원하고 있으며, gRPC 기반으로 사용하기 위해서 앤시스 2021 R1 이상을 권장한다. 파이썬과 앤시스 모두 설치되어 있는 환경이라면 추가적으로 PyMAPDL 라이브러리를 설치해야 한다. 터미널 창에 ‘pip install ansys-mapdl-core’ 한 줄의 입력으로 쉽게 설치되며, 버전을 따로 지정하지 않을 경우 최신 버전으로 설치된다. PyMAPDL은 <그림 2>와 같이 ‘launch_mapdl’ 함수를 호출하여 사용한다. 이는 Mechanical APDL Product Launcher를 실행하는 것과 유사하다. 해당 함수를 활용할 때 입력 가능한 주요 인자들을 입력하여 작업 폴더 위치나 파일 이름, 계산 방식 및 라이선스 등을 지정할 수 있다.    그림 2. PyMAPDL 실행 명령어   기존에 APDL에서 육면체 형상을 모델링하여 요소를 생성하는 과정은 <그림 3>과 같이 작성되고, 동일한 작업을 PyMAPDL로는 <그림 4>와 같이 구성할 수 있다. 작성된 APDL과 PyMAPDL 명령어를 비교하면 형태가 매우 유사한 것을 볼 수 있다. 이 때 PyMAPDL은 파이썬에서 두 가지 방식으로 사용된다. 첫 번째는 ‘run’ 명령어를 활용하여 APDL 명령어를 스트링(string)으로 입력해 직접 실행하는 방법이며, 두 번째는 파이썬 명령어로 변환해서 처리하는 방법이다.   그림 3. MAPDL 모델링 및 요소 생성 예시   그림 4. PyMAPDL 모델링 및 요소 생성 예시     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-05-02
직스캐드의 포인트 클라우드 기능
복잡한 모델에서 인사이트를 얻고 설계 의사결정을 돕는 직스캐드 (2)   직스캐드(ZYXCAD)는 2022년 처음 출시한 국내 자체 개발 범용 CAD 솔루션 프로그램으로, 가격 경쟁력을 높이는 한편으로 처리 속도를 빠르게 해 사용자 편의성을 높인 것이 특징이다.  이번 호에서는 혁신적인 디자인 경험을 제공할 수 있는 직스캐드 2024의 포인트 클라우드(point cloud, 점군) 기능에 대해 살펴본다.   ■ 이소연 직스테크놀로지 기술지원팀의 대리로 직스캐드의 기술지원 및 교육을 맡고 있다. 이메일 | tech@zyx.co.kr 홈페이지 | https://zyx.co.kr   그림 1. 포인트 클라우드의 예시   직스캐드 2024 버전에서는 디자인 및 엔지니어링 분야의 혁신이 더욱 확대되었다. 이번에 추가된 포인트 클라우드 기능은 사용자들에게 새로운 차원의 디자인 경험을 제공하며, 디자인 작업을 보다 직관적이고 효율적으로 만들어낸다. 포인트 클라우드 기능은 물체나 환경을 3차원 공간 상에 좌표로 표현한 데이터를 쉽게 가져와서 디자인 작업에 활용할 수 있다. 이는 레이저 스캐너나 카메라를 통해 취득된 데이터를 직스캐드에서 쉽게 작업하여 설계자들이 사진에 담을 수 없었던 현장을 그대로 볼 수 있게 됐다. 이 기능을 통해 사용자들은 건축물의 외형을 분석하고 수정하는데 사용할 수 있으며, 제조 엔지니어는 제품의 형태와 치수를 분석하여 제조 공정을 최적화할 수 있다. 또한, GIS 전문가는 지형 분석 및 지리 정보 시스템에 포인트 클라우드 데이터를 쉽게 통합하여 지형 모델링을 수행할 수 있다. 이 외에도 포인트 클라우드 기능은 다양한 산업 분야에서 활용될 수 있으며, 사용자들에게 더욱 직관적이고 효율적인 경험을 제공한다. 직스캐드 2024의 새로운 포인트 클라우드 기능은 디자이너들의 창의성을 끌어올리고 혁신적인 디자인을 만들어내는데 도움이 될 것이다.   포인트 클라우드 사용하기 데이터 취득 포인트 클라우드를 만들기 위해서는 먼저 데이터가 필요하다. 레이저 스캐너, 구조 광 프로젝터, 드론 또는 스테레오 카메라와 같은 장비를 사용해야 된다. 이러한 장비로 물체나 환경을 촬영하고 측정하여 3D 좌표를 생성한다.   데이터 처리 현재 직스캐드 2024 버전에서는 6개의 확장자를 지원한다. (*.rcs, *.rcp, *.e57, *.las, *.laz, *.pts) 취득한 데이터를 변환하는 작업을 거치면 모델을 확인할 수 있다.   그림 2. 포인트 클라우드 변환   포인트 클라우드 시각화 데이터가 처리되면 포인트 클라우드를 시각화하여 확인할 수 있다.    분석 및 편집 시각화된 포인트 클라우드를 통해 색상 및 단면, 점의 크기와 세밀도를 필요에 따라 편집할 수 있다.   그림 3. 포인트 클라우드 편집   시뮬레이션 및 검증 디자인이 완료되면 시뮬레이션을 통해 제품이나 구조물의 특징을 확인할 수 있다. 이를 통해 디자인의 품질과 안정성을 확보할 수 있다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-05-02
오픈AI CLIP 모델의 이해/코드 분석/개발/사용
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 생성형 AI의 멀티모달 딥러닝 기술 확산의 계기가 된 오픈AI(OpenAI)의 CLIP(Contrastive Language-Image Pre-Training, 2021) 코드 개발 과정을 분석하고, 사용하는 방법을 정리한다.    ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 이메일 | laputa99999@gmail.com 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groups/digestpodcast CLIP은 구글이 개발한 자연어 번역 목적의 트랜스포머 모델, 비전 데이터 변환에 사용되는 VAE(Variational Autoencoder) 개념을 사용하여 멀티모달 학습 방식을 구현하였다. 이번 호에서는 그 과정을 설명하고 파이토치로 직접 구현하는 과정을 보여준다. CLIP을 이용하면 유튜브, 넷플릭스와 같은 영상에서 자연어로 질의해 해당 장면을 효과적으로 검색할 수 있다. 참고로, CLIP에서는 트랜스포머가 핵심 컴포넌트로 사용되었다. CLIP과 같이 트랜스포머가 자연어 번역 이외에 멀티모달의 핵심 기술이 된 이유는 비정형 데이터를 연산 가능한 차원으로 수치화할 수 있는 임베딩 기술의 발전과 트랜스포머의 Key, Query, Value 입력을 통한 여러 학습 데이터 조합이 가능한 특징이 크게 작용했다.    그림 1. 멀티모달 시작을 알린 오픈AI의 CLIP 모델(Learning Transferable Visual Models From Natural Language Supervision, 2021)   트랜스포머와 VAE를 이용한 멀티모달 CLIP 네트워크를 좀 더 깊게 파헤쳐 보도록 한다. 앞서 설명된 트랜스포머, 임베딩과 관련된 개념에 익숙하다면, CLIP을 이해하고 구현하는 것이 그리 어렵지는 않을 것이다.    CLIP에 대한 이해 오픈AI에서 개발한 CLIP 모델은 공유 임베딩 공간 내에서 이미지 및 텍스트 형식을 통합하는 것을 목표로 했다. 이 개념은 기술과 함께 이미지와 텍스트를 넘어 다른 양식을 수용한다.(멀티모달) 예를 들어, 유튜브 등 비디오 애플리케이션 내에서 텍스트 검색 성능을 개선하기 위해 공통 임베딩 공간에서 비디오 및 텍스트 형식을 결합하여 모델을 학습시켰다. 사실, 임베딩 텐서를 잠재 공간(Latent Space)으로 이기종 데이터를 변환, 계산, 역변환할 수 있다는 아이디어는 VAE 기술, 구글의 트랜스포머 논문(2017)을 통해 개발자들 사이에 암시되어 있었다. 이를 실제로 시도해본 연구가 CLIP이다.  참고로, CLAP(Contrastive Language-Audio Pretraining)은 동일한 임베딩 공간 내에서 텍스트와 오디오 형식을 통합하는 또 다른 모델로, 오디오 애플리케이션 내에서 검색 기능을 개선하는 데 유용하다. CLIP은 다음과 같은 응용에 유용하다. 이미지 분류 및 검색 : CLIP은 이미지를 자연어 설명과 연결하여 이미지 분류 작업에 사용할 수 있다. 사용자가 텍스트 쿼리를 사용하여 이미지를 검색할 수 있는 보다 다양하고 유연한 이미지 검색 시스템을 허용한다. 콘텐츠 조정 : CLIP은 부적절하거나 유해한 콘텐츠를 식별하고 필터링하기 위해 이미지와 함께 제공되는 텍스트를 분석하여, 온라인 플랫폼의 콘텐츠를 조정하는 데 사용할 수 있다. 참고로, 메타 AI(Meta AI)는 최근 이미지, 텍스트, 오디오, 깊이, 열, IMU 데이터 등 6가지 양식에 걸쳐 공동 임베딩을 학습하는 이미지바인드(ImageBind)를 출시했다. 두 가지 모달리티를 수용하는 최초의 대규모 AI 모델인 CLIP은 이미지바인드 및 기타 다중 모달리티 AI 시스템을 이해하기 위한 전제 조건이다. CLIP은 배치 내에서 어떤 N×N(이미지, 텍스트) 쌍이 실제 일치하는지 예측하도록 설계되었다. CLIP은 이미지 인코더와 텍스트 인코더의 공동 학습을 통해 멀티모달 임베딩 공간을 만든다. CLIP 손실은 트랜스포머의 어텐션 모델을 사용하여, 학습 데이터 배치에서 N개 쌍에 대한 이미지와 텍스트 임베딩 간의 코사인 유사성을 최대화하는 것을 목표로 한다.  다음은 이를 설명하는 의사코드이다. 1. img_en = image_encoder(I)   # [n, d_i] 이미지 임베딩 인코딩을 통한 특징 추출  2. txtxt_emdn = textxt_emdncoder(T)    # [n, d_t] 텍스트 임베딩 인코딩을 통한 특징 추출 3. img_emd = l2_normalize(np.dot(img_en, W_i), axis=1)    # I×W 결합(조인트) 멀티모달 임베딩 텐서 계산 4. txt_emd = l2_normalize(np.dot(txtxt_emdn, W_t), axis=1)  # T×W 결합(조인트) 멀티모달 임베딩 텐서 계산 5. logits = np.dot(img_emd, txt_emd.T) * np.exp(t)   # I×T * E^t 함수를 이용한 [n, n]코사인 유사도 계산 6. labels = np.arange(n) 7. loss_i = cross_entropy_loss(logits, labels, axis=0)  # 이미지 참값 logits과 예측된 label간 손실 8. loss_t = cross_entropy_loss(logits, labels, axis=1)  # 텍스트 참값 logits과 예측된 label간 손실 9. loss = (loss_i + loss_t)/2   # 이미지, 텍스트 손실 평균값   실제 오픈AI 논문에는 <그림 2>와 같이 기술되어 있다.(동일하다.)   그림 2     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-05-02
언리얼 엔진 5.4 프리뷰 : 콘텐츠 생성의 퍼포먼스와 효율 강화
자료 제공 : 에픽게임즈 주요 특징 : 큰 메시 없이 높은 비주얼 퀄리티를 구현하는 나나이트 업데이트, 다양한 렌더링 성능 개선, 포트나이트의 모션 매칭 기능 포함, 컨트롤 릭과 시퀀서로 애니메이션 구현, 멀티 프로세스 쿠킹 속도 향상, 신규 오디오 인사이트 프로파일링 툴 제공, 프로시저럴 콘텐츠 생성 프레임워크 향상 등   에픽게임즈는 지난 3월 게임 개발자 콘퍼런스 GDC 2024의 오프닝 이벤트인 ‘스테이트 오브 언리얼(State of Unreal)’을 통해 ‘언리얼 엔진 5.4 프리뷰 1’ 출시 소식을 알렸다. 이 자리에서는 스카이댄스 뉴 미디어(Skydance New Media)의 새로운 앙상블 어드벤처 신작 ‘Marvel 1943 : Rise of Hydra’ 제작에 사용된 언리얼 엔진 5.4의 기능과 함께 UEFN(포트나이트 언리얼 에디터)에서 메타휴먼을 사용할 수 있게 됐다는 소식도 전해졌다.   ▲ 언리얼 엔진 5.4 프리뷰 1(이미지 출처 : 언리얼 엔진 홈페이지)   언리얼 엔진 5.4 프리뷰 1 출시 먼저 언리얼 엔진 5.4 프리뷰 1이 4월 말에 정식 출시됐다. 언리얼 엔진 5.4에는 디스크에서 큰 메시를 만들지 않고도 훨씬 높은 비주얼 퀄리티를 구현할 수 있는 나나이트 테셀레이션과 같은 나나이트(Ninite)의 주요 업데이트를 비롯하여 다양한 렌더링 성능 개선에 대한 업데이트가 진행된다.  언리얼 엔진 5.4의 애니메이션에도 발전이 있었다. ‘포트나이트’ 챕터 5 출시 이후 모든 플랫폼의 포트나이트에 사용되어 온 모션 매칭 기능이 포함되어, 게임 속 캐릭터에 간단하고 효율적으로 애니메이션을 적용할 수 있게 되었다. 2024년 말에는 이번 키노트 데모에서 사용된 로코모션과 트래버스 데이터세트와 함께 하이엔드 모션 캡처 데이터로 제작된 500개 이상의 AAA급 애니메이션이 포함된 무료 샘플 학습 프로젝트도 무료로 공개할 예정이다. 또한 ‘레고 포트나이트’ 개발 과정에서 대대적인 테스트를 거친 덕분에 별도로 여러 애플리케이션에서 작업할 필요 없이 컨트롤 릭과 시퀀서로 게임에 애니메이션을 구현할 수 있다.  뿐만 아니라 이제 멀티 프로세스 쿠킹의 속도가 최대 3배까지 빨라져, 에디터에서 쿠킹 시 더 적은 양의 셰이더를 컴파일할 수 있다. 사운드 디자이너는 이제 강력한 차세대 오디오의 제작, 이해, 디버그를 지원하는 신규 오디오 인사이트 프로파일링 툴을 사용할 수 있게 되었다.  한편 엔진에서 제공되는 프로시저럴 콘텐츠 생성 프레임워크도 향상되었다. 이번에 출시되는 PCG 바이옴 제작 플러그인은 유연한 데이터 기반 툴의 구체적인 샘플로, 최신 업데이트에서 제공하는 체계적인 접근 방식을 통해 개발되었다.    ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   스카이댄스 뉴 미디어가 선보이는 언리얼 엔진 5.4 기능 스카이댄스 뉴 미디어의 수상 경력에 빛나는 작가이면서 디렉터인 에이미 헤닉(Amy Hennig)과 그의 팀은 스테이트 오브 언리얼에서 새로운 앙상블 어드벤처 신작 ‘Marvel 1943 : Rise of Hydra’를 세계 최초로 선보였다. 스카이댄스는 리얼타임 시네마틱과 툴 데모를 진행하며 새로운 나나이트 및 볼류메트릭 렌더링 등 언리얼 엔진 5.4의 기능을 선보였다.    ▲ 스카이댄스가 GDC 2024에서 선보인 데모 영상   그의 팀은 나나이트 테셀레이션을 사용해 신에 높은 비주얼 퀄리티와 풍성한 디테일을 구현하고 애니메이션과 리얼타임 스트리밍을 지원하는 스파스 볼륨 텍스처로 메모리 사용량을 최소화하는 방법을 보여주었다. 불균질 볼륨이 셀프 섀도잉으로 시네마틱 퀄리티의 볼류메트릭 애셋을 렌더링하는 것과 단단한 표면에 그림자를 드리우고, 포그와 파티클과 같은 다른 반투명 이펙트와 합성되는 볼륨을 함께 선보였다. 스카이댄스는 최신 메타휴먼 애셋 표준과 메타휴먼 애니메이터를 사용해 배우의 강렬한 연기를 내러티브 속 주인공인 매력적인 애니메이션 캐릭터로 전환했다. 3래터럴 팀은 고해상도 4D 스캔을 활용해 메타휴먼 애셋의 퀄리티를 더욱 업그레이드하고, 스캔한 인물의 모습이 메타휴먼에 표현되도록 보정하는 방식으로 캐릭터 제작을 지원했다. 이 프로젝트는 스카이댄스의 베테랑 팀이 주도했으며 온전히 언리얼 엔진으로 제작되었다.   ▲ Marvel 1943 : Rise of Hydra(이미지 출처 : 언리얼 엔진 홈페이지)   UEFN에 메타휴먼 도입 GDC 2023에서 포트나이트 언리얼 에디터(UEFN)와 크리에이터 이코노미 2.0을 출시한 지 1년이 지났다. 그동안 크리에이터들은 8만 개가 넘는 UEFN 섬을 퍼블리싱했고, 에픽게임즈는 첫해에 3억 2000만 달러 이상의 참여 기반 수익금을 크리에이터에게 지급했다. 올해 GDC에서 에픽게임즈는 2024 로드맵을 통해 다양한 신규 기능을 소개했다. 우선 UEFN에 메타휴먼을 도입했다. 메타휴먼 크리에이터와 메타휴먼 애니메이터를 사용해 포트나이트 섬을 위한 고퀄리티 NPC를 손쉽게 제작하고 애니메이션을 적용할 수 있게 되었다. 메타휴먼 크리에이터는 UEFN 또는 언리얼 엔진에서 사용할 수 있도록 리깅된 사실적인 디지털 휴먼을 단 몇 분 만에 제작할 수 있는 무료 온라인 애플리케이션이다. 메타휴먼 애니메이터는 아이폰이나 스테레오 헤드마운트 카메라로 캡처한 영상을 메타휴먼용 고퀄리티 페이셜 애니메이션으로 변환한다. 메타휴먼 애니메이터로 만든 페이셜 애니메이션은 모든 메타휴먼 캐릭터 또는 UEFN에서 제공되는 포트나이트 캐릭터에 적용할 수 있다. 에픽게임즈는 크리에이터가 UEFN에서 메타휴먼으로 사실적인 환경에 실감 나는 휴먼 캐릭터를 구현하는 방법을 보여주는 탈리스만(Talisman) 데모도 공개했다. 이 데모에는 메타휴먼과 고퀄리티 환경이 포트나이트 섬의 룩 앤 필을 어떻게 완전히 바꿔놓았는지를 확인할 수 있다.   ▲ 탈리스만 데모 영상   또한, 신규 마블러스 디자이너(Marvelous Designer) 및 CLO의 지원을 통해 탈리스만 데모 속 메타휴먼의 역동적인 의상을 제작할 수 있게 됐다. UEFN 크리에이터는 마블러스 디자이너의 1년 무료 라이선스를 받을 수 있으며, 이 라이선스를 활용하면 새로운 언리얼 엔진 5.4 워크플로를 사용해 다이내믹 클로딩을 제작한 다음 UEFN 프로젝트로 임포트할 수 있다.   ▲ 탈리스만 데모(이미지 출처 : 언리얼 엔진 홈페이지)     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
RTX A400/A1000 : AI 기반 워크플로 강화하는 전문가용 GPU
개발 및 공급 : 엔비디아 주요 특징 : AI 처리를 위한 3세대 텐서 코어 및 레이 트레이싱을 위한 2세대 RT 코어 탑재, 암페어 아키텍처 기반의 CUDA 코어 탑재해 그래픽/컴퓨팅 처리속도 향상, 전문가 작업의 데이터를 처리속도 향상 위한 메모리 대역폭 증가, 효율적인 비디오 처리를 위한 인코딩/디코딩 엔진 탑재 등   엔비디아가 새로운 엔비디아 RTX A400과 RTX A1000 GPU를 통해 RTX 전문가용 그래픽 제품을 확장하고, 디자인을 비롯한 AI 기반 생산성 워크플로를 강화한다고 밝혔다. 디자인과 생산성 애플리케이션 전반에 걸친 AI 통합이 새로운 기준으로 자리잡으면서 고급 컴퓨팅 성능에 대한 수요가 증가하고 있다. 즉, 전문가와 크리에이터들은 프로젝트의 규모와 복잡성 또는 범위에 관계없이 향상된 컴퓨팅 성능을 활용해야 한다. 엔비디아 암페어(Ampere) 아키텍처 기반의 RTX A400과 RTX A1000 GPU는 이렇게 증가하는 수요를 충족하기 위해 개발됐으며, AI와 레이 트레이싱 기술에 대한 접근성을 확대해 전문가들이 일상적인 워크플로를 혁신하는데 필요한 도구를 제공한다.   ▲ 엔비디아 RTX A400   향상된 성능으로 창의성 및 효율 향상 지원 RTX A400 GPU는 RTX 400 시리즈 GPU에 가속화된 레이 트레이싱과 AI를 도입했다. 이 GPU는 AI 처리를 위한 24개의 텐서 코어(Tensor Cores)를 탑재해 기존 CPU 기반 솔루션을 넘는 성능을 제공한다. 이를 통해 전문가들은 지능형 챗봇, 코파일럿과 같은 최첨단 AI 애플리케이션을 데스크톱에서 직접 실행할 수 있다. 또한 GPU는 실시간 레이 트레이싱을 제공하므로 크리에이터는 생생하고 물리적 정확도가 높은 3D 렌더링을 제작할 수 있다. A400은 시리즈 최초로 4개의 디스플레이 출력을 지원해 금융 서비스, 명령과 제어, 유통, 운송과 같은 산업에 필수적인 고밀도 디스플레이 환경에 적합하다. 엔비디아 RTX A1000 GPU는 RTX 1000 시리즈 GPU에 처음으로 텐서 코어와 RT 코어를 도입했다. 이를 통해 전문가와 크리에이터를 위한 가속화된 AI와 레이 트레이싱 성능을 제공한다. A1000은 72개의 텐서 코어를 탑재해 이전 세대에 비해 업그레이드된 성능을 갖췄다. 스테이블 디퓨전(Stable Diffusion)과 같은 도구에서 3배 이상 빠른 생성형 AI 프로세싱을 제공하며, 18개의 RT 코어는 그래픽과 렌더링 작업 속도를 최대 3배까지 높여 2D와 3D CAD, 제품과 건축 설계, 4K 비디오 편집과 같은 전문적인 워크플로를 가속화한다. 더불어 A1000은 이전 세대보다 최대 38% 더 많은 인코딩 스트림을 처리하고 2배 더 빠른 디코딩 성능을 제공하는 등 비디오 처리 능력을 높였다.   ▲ 엔비디아 RTX A1000   차세대 기능을 통한 성능 강화 A400과 A1000 GPU는 싱글 슬롯 디자인에 전력소비량이 50W이며, 콤팩트하고 에너지 효율적인 워크스테이션을 위해 향상된 기능을 제공한다.  2세대 RT 코어 : 건축 도면, 3D 디자인, 콘텐츠 제작 등 모든 전문 워크플로를 위한 실시간 레이 트레이싱, 사실적인 물리 기반 렌더링과 시각화, 정확한 조명과 그림자 시뮬레이션으로 작업 품질을 높일 수 있다. 3세대 텐서 코어 : 생성형 AI, 이미지 렌더링 노이즈 제거, 딥러닝 슈퍼 샘플링과 같은 AI 증강 도구와 애플리케이션을 가속화해 이미지 생성 속도와 품질을 개선한다.  암페어 아키텍처 기반 쿠다 코어 : 암페어 아키텍처 기반의 쿠다(CUDA) 코어는 이전 세대 대비 최대 2배의 단정밀도 부동 소수점 처리량으로 그래픽과 컴퓨팅 워크로드의 속도를 크게 높인다. 4GB/8GB 메모리 : A400 GPU의 4GB와 A1000 GPU의 8GB GPU 메모리는 다양한 전문가용 요구 사항을 충족한다. 여기에는 기본적인 그래픽 디자인과 사진 편집부터 텍스처나 고해상도 편집, 데이터 분석이 필요한 까다로운 3D 모델링 등이 포함된다. 또한 이 GPU들은 이전 세대보다 메모리 대역폭이 증가해 데이터를 더 빠르게 처리하고 대용량 데이터 세트와 장면을 더 원활하게 처리할 수 있다. 인코딩/디코딩 엔진 : 7세대 인코드(NVENC)와 5세대 디코드(NVDEC) 엔진을 탑재한 새 GPU는 효율적인 비디오 처리를 기능을 제공한다. 이를 통해 초저지연으로 고해상도 비디오 편집, 스트리밍, 재생을 지원한다. 또한 AV1 디코드가 포함돼 더 많은 비디오 포맷을 더 효율적이고 원활하게 재생할 수 있다.   RTX 솔루션의 활용 범위 확대 엔비디아는 새로운 GPU가 최첨단 AI, 그래픽, 컴퓨팅 기능 등을 통해 사용자의 생산성을 높이고 창의적인 가능성을 열어준다고 전했다. 레이 트레이싱 렌더링과 AI가 포함된 고급 워크플로를 통해 전문가들은 작업의 한계를 뛰어넘고 놀라운 수준의 사실감을 구현할 수 있다. 기획 담당자들은 강력하고 에너지 효율적인 새로운 컴퓨팅 솔루션을 에지 배포에 사용할 수 있다. 크리에이터는 편집과 렌더링 속도를 높여 더욱 풍부한 시각적 콘텐츠를 제작할 수 있다. 건축가와 엔지니어는 아이디어를 3D CAD 개념에서 실제 디자인으로 원활하게 전환할 수 있다. 스마트 공간에서 작업하는 경우에는 공간 제약이 있는 환경에서 실시간 데이터 처리, AI 기반 보안, 디지털 사이니지 관리 등에 GPU를 사용할 수 있다. 또한 의료 전문가들은 더 빠르고 정밀한 의료 영상 분석을 수행할 수 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
라이젠 프로 8040/8000 시리즈 : AI로 생산성 높이는 기업용 PC 프로세서
개발 및 공급 : AMD 주요 특징 : 4nm 젠 4 아키텍처 기반으로 성능 및 전력 효율 향상, 와이파이 7 기술 지원, 일부 모델에 NPU 기반 AI 엔진 탑재 등     AMD는 비즈니스 환경에서 높은 생산성과 프리미엄급 AI 및 연결 경험을 제공하는 새로운 기업용 모바일 및 데스크톱 AI PC 프로세서를 공개했다. 새로운 AMD 라이젠 프로 8040(Ryzen PRO 8040) 시리즈는 기업용 노트북과 모바일 워크스테이션을 위해 개발된 x86 프로세서이다. AMD는 비즈니스 사용자를 위한 AI 지원 데스크톱 프로세서인 AMD 라이젠 프로 8000 시리즈 데스크톱 프로세서도 출시했다. 이 제품은 낮은 전력 소모로 첨단 성능을 제공하도록 설계되었다. AMD는 이번에 새롭게 공개된 일부 모델에 AMD 라이젠 AI(AMD Ryzen AI)를 탑재했다. 새로운 라이젠 AI 기반 프로세서는 CPU, GPU 및 전용 온칩 NPU(Neural Processing Unit)를 탑재한다. 전용 NPU의 경우 최대 16 TOPS의 연산 성능을 제공하며, 전체 시스템은 최대 39 TOPS로 이전 세대보다 향상된 전용 AI 프로세싱 성능을 제공한다. 새로운 라이젠 AI 지원 프로세서를 장착한 기업용 PC는 AI 기반 협업과 콘텐츠 제작, 데이터 및 분석 워크로드에서 더 높은 성능과 향상된 사용자 경험을 제공한다. 또한, AMD 프로 기술이 추가됨에 따라 IT 관리자들은 IT 운영을 간소화하고, 조직 전반에 걸쳐 보다 신속하게 PC를 구축할 수 있는 엔터프라이즈급 관리 기능을 사용할 수 있다. AMD는 정교한 공격으로부터 프로세서와 클라우드를 방어할 수 있는 통합 보안 기능 및 안정성과 신뢰성 및 플랫폼 수명을 갖춘 엔터프라이즈 소프트웨어 등의 이점을 제공한다고 전했다. 새로운 라이젠 프로 8040 시리즈 모바일 프로세서는 2024년 2분기부터 HP와 레노버를 포함한 OEM 파트너사를 통해 공급될 예정이며, 라이젠 프로 8000 시리즈 데스크톱 프로세서는 2024년 2분기부터 OEM 파트너사인 HP와 레노버, 일부 채널 파트너 플랫폼을 통해 공급될 예정이다.   라이젠 프로 8040 시리즈      전문가용 노트북 및 모바일 워크스테이션을 위한 AMD 라이젠 프로 8040 시리즈 모바일 프로세서는 집약적인 비즈니스 및 AI 워크로드에 최적화된 효율과 프로세싱 성능을 제공한다. 이 프로세서는 까다로운 모바일 워크스테이션 애플리케이션에서 최대 30% 향상된 성능을 제공하는 4nm의 ‘젠 4(Zen 4)’ 아키텍처를 기반으로 하며, 최대 8개의 고성능 코어를 탑재한다. 일부 모델에는 AMD 라이젠 AI를 탑재하고 AMD RDNA 3 그래픽을 통합했는데, AMD는 “경쟁사 프로세서 대비 화상회의 시 84% 더 적은 전력으로 최대 72% 더 높은 성능을 제공한다”고 설명했다. 또한, 라이젠 프로 8040 시리즈 프로세서 기반 PC는 와이파이 7(WiFi-7) 기술도 활용할 수 있다. 시리즈 중 최상위 제품인 AMD 라이젠 9 프로 8945HS는 8개의 코어와 16개의 스레드, 24MB 캐시 및 라데온(Radeon) 780M 그래픽을 탑재하고 있다. 이 프로세서는 테크니컬 컴퓨팅, 멀티미디어 콘텐츠 제작, 개별 그래픽 등 리소스 집약적 애플리케이션에 필요한 연산 성능을 제공하며, 3D 렌더링, 비디오 인코딩 및 사진 편집 등과 같은 까다로운 그래픽 관련 워크로드를 처리한다. 이번에 발표된 라이젠 프로 8040 시리즈는 6 코어 12 스레드의 라이젠 5 프로 8540U부터 8 코어 16 스레드의 라이젠 9 프로 8945HS까지 8종이다. 이 중 8540U를 제외한 7개 제품에서 라이젠 AI를 지원한다.   라이젠 프로 8000 시리즈     기업용 데스크톱을 위한 AMD 라이젠 프로 8000 시리즈 프로세서는 4nm 공정 기술을 기반으로 최대 8개의 고성능 젠 4 코어를 탑재했으며, 일부 모델은 전용 AI 엔진을 탑재하여 향상된 전력 및 효율과 몰입형 AI 경험을 제공한다.  AMD 라이젠 프로 8000 시리즈 프로세서를 장착한 데스크톱은 주요 비즈니스 애플리케이션 및 데이터에 대한 보다 빠른 액세스와 초고속 데이터 전송, 원활한 워크플로를 위해 최신 DDR5 및 PCIe 4를 지원하며, 일부 모델은 와이파이 7 기반의 차세대 연결성도 제공한다. 라인업 중 최상위 제품인 AMD 라이젠 8700G 프로세서는 고성능 8 코어 16 스레드, 24MB 캐시 및 통합 AMD 라데온 780M 그래픽을 탑재한다. AMD 라이젠 8700G는 AMD의 성능 테스트에서 경쟁 제품 대비 더 적은 전력을 소모하면서도 최대 19% 향상된 성능을 제공하는 것으로 나타났다. AMD는 “AMD 라이젠 7 프로 8799G 프로세서를 탑재한 기업용 데스크톱은 특정 테스트를 기준으로 경쟁사 프로세서에 비해 최대 47% 향상된 시스템 성능과 3배 향상된 그래픽 성능을 제공한다”고 전했다. 이번에 발표된 라이젠 프로 8000 시리즈는 4 코어 8 스레드의 라이젠 3 프로 8300GE부터 8 코어 16 스레드의 라이젠 7 프로 8700G까지 8종이며, 라이젠 5 프로 8600G 및 8600GE, 라이젠 7 프로 8700G 및 8700GE 등 네 종이 라이젠 AI를 지원한다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
[케이스 스터디] 유니티 뮤즈의 텍스처/스프라이트 생성 및 파운데이션 모델
책임감 있는 AI 활용 및 향상된 모델 훈련   이번 호에서는 AI를 활용해 실시간 3D 콘텐츠를 제작하는 툴인 유니티 뮤즈(Unity Muse)에서 결과를 생성하는 방법을 설명하고, 유니티의 모델 훈련 방법론 및 새로운 파운데이션 모델 두 가지를 소개한다. ■ 자료 제공 : 유니티 코리아   유니티 뮤즈는 AI 기능을 바탕으로 사용자의 탐색, 아이디어 구상 및 반복 작업을 지원한다. 이러한 기능 중 텍스처(Texture) 및 스프라이트(Sprite)는 자연어와 시각적 입력을 애셋으로 변환한다. 뮤즈를 통해 유니티 에디터에 AI를 도입하면 아이디어를 가시적인 콘텐츠로 빠르게 구현할 수 있으므로, 비전을 더 손쉽게 실현할 수 있다. 프로젝트에 사용 가능한 실제 결과물로 변환할 수 있는 텍스트 프롬프트와 패턴, 색, 스케치를 이용하여 조정 및 반복 작업도 가능하다. 유니티는 뮤즈를 통한 스프라이트 및 텍스트 생성의 기반이 되는 AI 모델에 대한 훈련 기법을 혁신하는데 노력을 들였다. 이를 통해 안전하고 책임감 있으며 다른 크리에이터의 저작권을 존중하는 유용한 결과물을 제공하고자 한다.   AI 모델 훈련 유니티는 뮤즈의 텍스처 및 스프라이트 기능을 선보이면서, 유니티가 보유하거나 라이선스를 받은 독점 데이터를 기반으로 처음부터 훈련을 받은 두 가지 맞춤형 확산 모델도 개발하고 있다.   자체 콘텐츠 라이브러리 확장 데이터 증강은 유니티가 데이터 세트의 스케일과 다양성을 높이기 위해 사용하는 핵심 기술 중 하나로, 이 기술을 이용하여 유니티는 보유 중인 원본 데이터 샘플에서 많은 변형(variation)을 생성할 수 있다. 이러한 역량으로 훈련 세트를 더 풍부하게 만들 수 있으며, 모델이 한정된 샘플을 기반으로 일반화를 수행하는 기능을 향상할 수 있다. 아울러 지오메트리 변환, 색 공간 조정, 노이즈 삽입, 스테이블 디퓨전(Stable Diffusion) 같은 생성형 모델을 통한 샘플 배리에이션 등의 기법을 사용해 데이터 세트를 종합적으로 확장한다. 최근 스테이블 디퓨전과 관련하여, 본래 인터넷에서 수집된 데이터를 기반으로 훈련된 모델이라는 이유로 윤리적인 면에서 우려가 발생한 바 있다. 유니티는 뮤즈의 텍스처 및 스프라이트 기능을 제작하면서, 자체적으로 소유하고 책임감 있게 선별한 원본 데이터 세트를 기반으로 잠재적 확산 모델 아키텍처를 처음부터 훈련하는 방식을 통해 사전 훈련된 모델에 대한 의존도를 낮췄다. 데이터 증강 기법의 일부로 스테이블 디퓨전 모델의 사용을 최소로 제한해 안전하게 사용함으로써, 유니티가 보유한 원본 애셋 라이브러리를 강력하고 다양한 결과물의 저장소로 확장할 수 있었다. 이러한 결과물은 고유하고 독창적이며, 저작권을 가진 어떠한 아트 스타일도 포함하지 않는다. 유니티는 또한 추가로 완화 조치를 적용했으며, 뮤즈의 텍스처 및 스프라이트 기능에 사용되는 유니티의 잠재적 확산 모델을 위한 훈련 데이터 세트는 인터넷에서 수집된 어떤 데이터도 포함하지 않는다. 다음은 앞에서 설명한 증강 기법을 통해 확장되는 콘텐츠의 예시이다.   그림 1   <그림 1>은 원본 데이터 샘플(왼쪽 상단)과 복합적인 증강 기법으로 얻은 합성 배리에이션이다. 두 가지 모두 노이즈 기반(색 공간 조정, 위에서 아래로) 및 생성 기반(왼쪽에서 오른쪽으로)이다. 기존 데이터를 증강한 이후에도 여전히 다양한 소재에서 채워야 하는 부분이 있었다. 이 작업을 위해 행동에 의미 있는 변화가 나타날 때까지 자체 콘텐츠로 스테이블 디퓨전을 훈련시켰다. 또한 이러한 파생 모델을 사용하여 사전 필터링된 소재 목록으로 완전히 새로운 합성 데이터를 만들었다.(그림 2)   그림 2   실제 인력에 의한 검토와 LLM(대규모 언어 모델)을 사용하는 자동화된 추가 필터링을 이러한 소재 목록에 모두 적용함으로써, 유니티의 가이드 원칙을 위반하고 인식 가능한 아트 스타일, 저작권이 있는 머티리얼, 잠재적으로 유해한 콘텐츠가 전혀 포함되지 않은 데이터 세트를 만들겠다는 유니티의 목표에 맞지 않는 합성 이미지가 생성될 가능성을 차단했다. 그 결과 증강되고 완전한 대규모의 합성 이미지 데이터 세트 두 개가 만들어졌고, 여기에는 원치 않는 콘셉트가 포함되지 않았다는 확신이 있었다. 하지만 그러한 확신에도 불구하고, 유니티는 더 많은 필터링을 추가해 모델의 안전성을 보장하고자 했다.   안전하고 유용한 결과물을 위한 추가 데이터 필터링 가장 중요한 사항은 안전 및 개인정보와 부정적인 영향 없이 사용자를 지원하는 툴의 제공이었으므로, 유니티는 추가 데이터 세트 필터링을 위한 별도의 분류기 모델을 개발했다. 이 모델을 사용한 결과, 데이터 세트에 포함된 모든 콘텐츠가 유니티의 AI 원칙에 명시된 표준을 충족하고 추가적인 이미지 품질 검사를 통과할 수 있었다. 리뷰어 모델은 합성 이미지에서 다음 사항을 식별하는 역할을 함께 담당했다. 인식 가능한 사람의 특징이 포함되어 있지 않음 일반적이지 않은 어떤 아트 스타일도 포함되어 있지 않음 어떤 IP 캐릭터나 로고도 포함되어 있지 않음 허용될 수 있는 수준의 품질을 갖추고 있음 4개의 리뷰어 모델이 요구하는 신뢰도 높은 임계 수준을 하나라도 통과하지 못하는 이미지는 데이터 세트에서 폐기되었다. 가장 높은 신뢰도를 보이는 이미지만 필터를 통과해 최종 데이터 세트에 합류할 수 있도록 철저하게 주의를 기울이며, 모델의 결격 사유를 엄격하게 평가했다.   모델 소개 유니티의 유나이트 이벤트에서 뮤즈의 텍스처 및 스프라이트 기능에 대한 얼리 액세스가 발표되었다. 이러한 툴을 지원하는 모델의 첫 번째 반복 수정을 내부적으로 ‘Photo-Real-Unity-Texture-1’ 및 ‘Photo-Real-Unity-Sprite-1’이라고 한다. 이는 스타일화에 대한 기초적인 이해만 갖추도록 설계된 모델로, 주로 포토리얼리즘에 집중되어 있다. 모델을 프로젝트의 기존 스타일에 맞게 가이드하고 싶다면, 유니티의 스타일 훈련 시스템에 약간의 고유 레퍼런스 애셋을 제공하여 콘텐츠를 특정 아트 스타일로 생성하는 방법을 모델에 학습시킬 수 있다. 그렇게 하면 결과물 가이드를 위해 메인 모델과 함께 작동하는 소규모의 후속 모델이 생성된다. 이 소규모 후속 모델은 훈련 담당자나 그 조직에 공개되지 않으며, 유니티는 메인 모델 훈련에 이 콘텐츠를 사용하지 않는다. 포토리얼리즘에 중점을 두는 모델이기 때문에 유니티는 메인 모델을 수많은 다양한 스타일로 훈련시킬 필요가 없었다. 이 아키텍처를 통해 더 손쉽게 책임감 있는 AI를 향한 유니티의 약속을 지키면서 메인 모델을 훈련시킬 수 있으며, 크리에이터가 아트 수준을 더 세부적으로 제어하도록 할 수 있다. 이러한 모델은 시작에 불과하다. 뮤즈의 스마트한 역량은 점점 더 향상되어 더 나은 결과물로 이어질 것이며, 유니티는 그러한 과정에서 모델 향상 로드맵을 통해 모델을 더 높은 완성도로 이끈다는 비전을 내세운다.   Photo-Real-Unity-Texture-1 로드맵 유니티의 텍스처 모델은 모든 분야에서 유용하게 쓰일 수 있다. 큰 규모의 콘셉트를 인식하고 있으며, 이러한 모델을 통해 서로 관련이 없는 여러 콘셉트를 자유롭게 혼합하고 <그림 3>에서 볼 수 있는 ‘메탈 슬라임’ 또는 ‘파란색 크리스탈 유리 암석’ 같은 결과물을 구현할 수 있다.   그림 3   이 모델이 현 단계에서 유용하기는 하지만, 다양한 프롬프트와 입력 방식에 어떻게 반응하는지 학습해 본 결과 단일 단어로 구성된 프롬프트로는 고급 머티리얼 콘셉트를 구현하기 어려울 수도 있다는 사실을 알 수 있었다. 원하는 목표에 맞게 모델을 가이드하는 데에 도움이 되는 방법이 더 있지만, 유니티는 기본 프롬프트의 정확도를 높이고 새로운 모델 가이드 방법을 추가하는 방식으로 사용자가 모델을 계속 더 자유롭게 제어할 수 있도록 할 예정이다. 앞으로 컬러 피커, 추가적인 사전 제작 가이드 패턴, 자체 가이드 패턴 생성을 위한 개선된 시스템 및 기타 새로운 시각적 입력 방법을 추가할 계획이며, 이 모든 사항은 현재 실험 단계에 있다. Photo-Real-Unity-Texture-1에서 유니티가 가장 중점을 두는 사항은 성과가 저조한 머티리얼 콘셉트를 식별하고 모델 재훈련을 자주 실행하여 전반적인 품질과 기능을 지속적으로 개선하는 것이다. 툴 내 평가 시스템을 통한 사용자의 피드백은 유니티가 모델 기능에서 취약점을 식별하여 더 나은 툴을 만드는 데 도움이 된다. 유니티는 빈도 높은 훈련 일정으로 모델을 빠르게 개선하고, 모델의 사용성을 높이며, 머티리얼 분야에 대한 지식을 축적하고 있다.   Photo-Real-Unity-Sprite-1 로드맵 Photo-Real-Unity-Texture-1과 유사하게 유니티의 기본적인 스프라이트 모델은 전반적으로 유용하며 많은 콘셉트를 인식한다. 툴에 아직 빌트인 애니메이션 기능이 없기 때문에, 유니티는 초기에는 가장 흔하게 사용되는 정적 스프라이트 콘셉트의 품질을 극대화하는데 주력하기로 했다. 기본 모델의 원시 결과물을 <그림 4>에서 확인할 수 있다. 일반적인 사용 사례에서 이는 사용자 훈련 모델에 의해 특정 아트 스타일에 맞게 조정된다.   그림 4   정적 오브젝트는 이미 안정적이지만 유니티는 동물과 인간의 해부학적 정확도를 개선하기 위해 계속 노력하고 있다. 이러한 유형의 소재를 사용할 때 결과가 바람직할 수도 있지만, 사지가 늘어나거나 누락되는 경우 또는 안면이 왜곡되는 경우가 발생할 수도 있다. 이는 책임감 있는 AI 및 사용 가능한 데이터에 대한 엄격한 제한을 지향하는 유니티의 조치에 따른 부작용이라고 할 수 있다. 유니티는 개인정보 보호와 안전을 중요하게 인지하고 있으며, 이로 인해 초기 얼리 액세스 릴리스에서 일부 소재의 품질이 완벽하지 않을 수 있다. 완전히 공백인 스프라이트가 생성될 수도 있으며, 이는 시각적 콘텐츠 검수 필터에 따른 결과이다. 유니티는 Photo-Real-Unity-Sprite-1의 초기 출시 버전에서는 출력 필터링에 관해 신중하게 접근하는 방향을 택했으며, 이로 인해 일부 아트 스타일의 경우 필터링에서 1종 오류가 발생할 수 있다. 유니티는 지속적으로 피드백을 수렴하고 콘텐츠 필터를 개선하면서 점차 제한을 완화할 계획이다. 유니티는 피드백을 수렴하고 책임감 있는 자세로 계속 더 많은 데이터를 소싱하면서 전반적으로 모든 소재의 품질이 빠르게 향상될 것으로 기대하고 있다. Photo-Real-Unity-Sprite-1에도 Photo-Real-Unity-Texture-1과 유사하게 철저한 훈련 일정이 적용될 예정이다.   AI 강화 개발을 향한 유니티의 행보 뮤즈는 책임감 있고 타인의 독창성을 존중하는 방식으로 생성형 AI의 잠재력을 활용해 커뮤니티에 더 강력한 창작물 제어 권한을 부여하려는 유니티의 첫걸음이다. 이 제품은 사용자를 우선으로 고려하여 제작되었으며, 유니티는 사용자의 피드백을 기반으로 변화와 개선을 진행할 예정이다. 유니티는 콘텐츠 제작 업계에서 생성형 AI가 가지는 잠재적 영향력을 인식하며 중요하게 다루고 있다. 이 툴은 크리에이터를 대체하는 것이 아닌, 크리에이터의 역량을 강화하기 위한 노력의 결과이다. 유니티는 크리에이터가 더 많아질수록 세상은 더 매력적인 곳이 될 것이라고 믿으며, 뮤즈와 이를 지원하는 모델을 통해 이러한 사명을 계속 이어간다는 비전을 제시한다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02